使用单机多卡GPU训练网络,数据并行模式,问题总结!!!!!!!!!! |
您所在的位置:网站首页 › pytorch 多机多卡训练 › 使用单机多卡GPU训练网络,数据并行模式,问题总结!!!!!!!!!! |
1.设置GPU可显有哪些 from torch.nn import DataParallelos.environ["CUDA_VISIBLE_DEVICES"] = '3,4,5,6,7' 2.设置device为GPU device = torch.device("cuda" if torch.cuda.is_available() else "cpu") 3.使用nn.DataParallel来切换多GPU格式 if torch.cuda.device_count() > 1: print("Let's use", torch.cuda.device_count(), "GPUs!")#打印可用GPU model.to(device) model = DataParallel(model)4.数据并行模式:系统会自动将数据放在各个GPU上,模型参数也会各自复制一份在各个模型上,但是当GPU内存不足时他会将模型切分多个部分,因此在保存模型时要保留完整的模型,示例如下: if best_dice < val_dice: best_dice = val_dice best_model=self.model.module.state_dict()###关键点:model.module将完整参数取回 name = "{}_BEST.pth".format(os.path.basename(self.args.save)) # print(self.args.save) torch.save(best_model, os.path.join(self.args.save, name))注意:在调试过程中犯了几个错误: 1.首先非必要不要指定某个GPU存放模型参数,因为在后续训练过程中可能会因为内存问题导致训练中断; 2.在存模型时只需要将参数赋给某个变量,不要将整个模型都使用model=model.module,这会导致原本使用多GPU训练,而加上这句后,模型使用一个GPU训练,中断训练过程。 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |